Migrate MLflow tracking servers to Amazon SageMaker AI with serverless MLflow
本文向您展示如何将自我管理的 MLflow 跟踪服务器迁移到 MLflow 应用程序 - SageMaker AI 上的无服务器跟踪服务器,可根据需求自动扩展资源,同时免费消除服务器修补和存储管理任务。了解如何使用 MLflow 导出导入工具传输实验、运行、模型和其他 MLflow 资源,包括验证迁移是否成功的说明。
Build an AI-powered website assistant with Amazon Bedrock
本文演示了如何通过使用 Amazon Bedrock 和 Amazon Bedrock 知识库构建人工智能驱动的网站助手来解决这一挑战。
Programmatically creating an IDP solution with Amazon Bedrock Data Automation
在本文中,我们将探讨如何以编程方式创建使用 Strands SDK、Amazon Bedrock AgentCore、Amazon Bedrock 知识库和 Bedrock Data Automation (BDA) 的 IDP 解决方案。该解决方案通过 Jupyter 笔记本提供,使用户能够上传多模式业务文档并使用 BDA 作为解析器提取见解,以检索相关块并增强对基础模型 (FM) 的提示。
AI agent-driven browser automation for enterprise workflow management
企业组织越来越依赖基于 Web 的应用程序来执行关键业务流程,但许多工作流程仍然需要大量手动操作,从而造成运营效率低下和合规风险。尽管技术投资巨大,但知识工作者仍会在标准工作流程中在八到十二个不同的 Web 应用程序之间进行导航,不断切换上下文并在系统之间手动传输信息。数据输入和验证任务 [...]
Exploring the zero operator access design of Mantle
在这篇文章中,我们将探讨 Amazon Bedrock 的下一代推理引擎 Mantle 如何实现零操作员访问 (ZOA) 设计,消除 AWS 操作员访问客户数据的任何技术手段。
AWS AI League: Model customization and agentic showdown
在这篇文章中,我们探讨了新的 AWS AI League 挑战以及它们如何改变组织进行 AI 开发的方式。 AWS re:Invent 2025 的压轴戏精彩地展示了他们的独创性和技能。
Accelerate Enterprise AI Development using Weights & Biases and Amazon Bedrock AgentCore
在这篇文章中,我们演示了如何使用 Amazon Bedrock 的基础模型 (FM) 和新推出的 Amazon Bedrock AgentCore 以及 W&B Weave 来帮助构建、评估和监控企业 AI 解决方案。我们涵盖从跟踪单个 FM 调用到监控生产中复杂的代理工作流程的完整开发生命周期。
How dLocal automated compliance reviews using Amazon Quick Automate
在这篇文章中,我们将分享 dLocal 如何与 AWS 团队密切合作,帮助制定产品路线图、强化其作为行业创新者的角色,并为全球金融科技领域的卓越运营树立新的基准。
在这篇文章(三篇系列文章中的第一篇)中,我们重点介绍如何使用 Amazon Nova 通过生成式 AI 来简化和加速营销活动的创建。我们展示了哥伦比亚最大的银行之一 Bancolombia 如何尝试使用 Amazon Nova 模型为其营销活动生成视觉效果。
在这篇文章中,我们将探讨 AWS 和 Visa 如何合作,使用 Amazon Bedrock AgentCore 通过 Visa 智能商务来实现代理商务。我们展示了自主人工智能代理如何将碎片化的购物和旅行体验转变为无缝的端到端工作流程——从发现和比较到安全支付授权——所有这些都是由自然语言驱动的。
Move Beyond Chain-of-Thought with Chain-of-Draft on Amazon Bedrock
本文探讨了 Chain-of-Draft (CoD),这是 Zoom AI Research 论文 Chain of Draft: Thinking Faster by Write Less 中引入的一种创新提示技术,它彻底改变了模型处理推理任务的方式。虽然思维链 (CoT) 提示一直是增强模型推理的首选方法,但 CoD 提供了一种更有效的替代方案,反映了人类解决问题的模式——使用简洁、高信号的思维步骤,而不是冗长的解释。
Deploy Mistral AI’s Voxtral on Amazon SageMaker AI
在本文中,我们演示了使用 vLLM 和自带容器 (BYOC) 方法在 Amazon SageMaker AI 终端节点上托管 Voxtral 模型。 vLLM 是一个用于服务大型语言模型 (LLM) 的高性能库,具有分页注意力以改进内存管理和张量并行性,以便跨多个 GPU 分发模型。
在这篇文章中,我们通过对亚马逊运营中心内的制造设备进行案例研究,展示了如何在 Amazon Bedrock 上使用基础模型 (FM) 实施预测性维护解决方案。该解决方案具有高度适应性,可以针对其他行业进行定制,包括石油和天然气、物流、制造和医疗保健。
今天,我们很高兴向您介绍 SageMaker Studio 的一项新功能:SOCI(Seekable Open Container Initiative)索引。 SOCI 支持容器镜像的延迟加载,即最初只下载镜像的必要部分,而不是整个容器。
在本文中,您将了解 AgentCore 运行时上的双向流以及创建 WebSocket 实现的先决条件。您还将了解如何使用 Strands Agents 为语音代理实现双向流解决方案。
Tracking and managing assets used in AI development with Amazon SageMaker AI
在这篇文章中,我们将探讨帮助组织跟踪和管理模型开发和部署生命周期的新功能和核心概念。我们将向您展示如何配置这些功能来训练具有自动端到端沿袭的模型,从数据集上传和版本控制到模型微调、评估和无缝端点部署。
Track machine learning experiments with MLflow on Amazon SageMaker using Snowflake integration
在这篇文章中,我们演示了如何将 Amazon SageMaker 托管的 MLflow 集成为中央存储库来记录这些实验并提供统一的系统来监控其进度。
Governance by design: The essential guide for successful AI scaling
想象一下:您的企业刚刚部署了第一个生成式 AI 应用程序。初步结果很有希望,但当您计划跨部门扩展时,就会出现关键问题。随着人工智能应用程序的倍增,您将如何实施一致的安全性、防止模型偏差并保持控制?